MapReduce架构及原理解析 |
您所在的位置:网站首页 › mapreduce inputformat类型讲解 › MapReduce架构及原理解析 |
目录 一、MapReduce概念 1 为什么要MapReduce 2 MapReduce的核心思想 3 MapReduce进程 4 MapReduce编程规范(八股文) WordCount案例 5 MapReduce程序运行流程分析 二、Hadoop序列化 1 Writable序列化 1.1 常用数据序列化类型 1.2 自定义bean对象实现序列化接口 三、MapReduce框架原理 1 MapTask并行度决定机制 2 InputFormat数据切片机制 2.1 FileInputFormat切片机制 2.2 CombineTextInputFormat切片机制 3 分区讲解——Shuffle机制 3.1 概述 3.2 Shuffle机制 3.3 WritableComparable排序 3.4 Combiner合并 一、MapReduce概念Mapreduce是一个分布式运算程序的编程框架,是用户开发“基于hadoop的数据分析应用”的核心框架;Mapreduce核心功能是将用户编写的业务逻辑代码和自带默认组件整合成一个完整的分布式运算程序,并发运行在一个hadoop集群上。 1 为什么要MapReduce1)海量数据在单机上处理因为硬件资源限制,无法胜任 2)而一旦将单机版程序扩展到集群来分布式运行,将极大增加程序的复杂度和开发难度 3)引入mapreduce框架后,开发人员可以将绝大部分工作集中在业务逻辑的开发上,而将分布式计算中的复杂性交由框架来处理。 4)mapreduce分布式方案考虑的问题 (1)运算逻辑要不要先分后合? (2)程序如何分配运算任务(切片)? (3)两阶段的程序如何启动?如何协调? (4)整个程序运行过程中的监控?容错?重试? 分布式方案需要考虑很多问题,但是我们可以将分布式程序中的公共功能封装成框架,让开发人员将精力集中于业务逻辑上。而mapreduce就是这样一个分布式程序的通用框架。 2 MapReduce的核心思想 1)分布式的运算程序往往需要分成至少2个阶段 2)第一个阶段的maptask并发实例,完全并行运行,互不相干 3)第二个阶段的reduce task并发实例互不相干,但是他们的数据依赖于上一个阶段的所有maptask并发实例的输出 4)MapReduce编程模型只能包含一个map阶段和一个reduce阶段,如果用户的业务逻辑非常复杂,那就只能多个mapreduce程序,串行运行 3 MapReduce进程一个完整的mapreduce程序在分布式运行时有三类实例进程: 1)MrAppMaster:负责整个程序的过程调度及状态协调 2)MapTask:负责map阶段的整个数据处理流程 3)ReduceTask:负责reduce阶段的整个数据处理流程 4 MapReduce编程规范(八股文)用户编写的程序分成三个部分:Mapper,Reducer,Driver(提交运行mr程序的客户端) 1)Mapper阶段 (1)用户自定义的Mapper要继承自己的父类 (2)Mapper的输入数据是KV对的形式(KV的类型可自定义) (3)Mapper中的业务逻辑写在map()方法中 (4)Mapper的输出数据是KV对的形式(KV的类型可自定义) (5)map()方法(maptask进程)对每一个调用一次(此时调用的可以是K->行号,V->每一行内容,按行处理) 2)Reducer阶段 (1)用户自定义的Reducer要继承自己的父类 (2)Reducer的输入数据类型对应Mapper的输出数据类型,也是KV (3)Reducer的业务逻辑写在reduce()方法中 (4)Reducetask进程对每一组相同k的组调用一次reduce()方法 3)Driver阶段 整个程序需要一个Drvier来进行提交,提交的是一个描述了各种必要信息的job对象 WordCount案例1) 定义一个mapper类 import java.io.IOException; import org.apache.hadoop.io.IntWritable; import org.apache.hadoop.io.LongWritable; import org.apache.hadoop.io.Text; import org.apache.hadoop.mapreduce.Mapper; /** * KEYIN:输入数据的key 文件的行号 * VALUEIN:每行的输入数据 * * KEYOUT:输出数据 的key * VALUEOUT:输出数据的value类型 * * KEYIN:默认情况下,是mr框架所读到的一行文本的起始偏移量,Long; * 在hadoop中有自己的更精简的序列化接口,所以不直接用Long,而是用LongWritable * VALUEIN:默认情况下,是mr框架所读到的一行文本内容,String;此处用Text * * KEYOUT:是用户自定义逻辑处理完成之后输出数据中的key,在此处是单词,String;此处用Text * VALUEOUT,是用户自定义逻辑处理完成之后输出数据中的value,在此处是单词次数,Integer,此处用IntWritable */ public class WordcountMapper extends Mapper{ //hello world //atguigu atguigu /** * map阶段的业务逻辑就写在自定义的map()方法中 * maptask会对每一行输入数据调用一次我们自定义的map()方法 */ @Override protected void map(LongWritable key, Text value, Context context) throws IOException, InterruptedException { // 1获取这一行数据 String line = value.toString(); // 2 获取每一个单词 String[] words = line.split(" ") // 3 输出每一个单词,将单词输出为 for(String word:words){ context.write(new Text(word), new IntWritable(1)); } } }2) 定义一个reducer类 import java.io.IOException; import org.apache.hadoop.io.IntWritable; import org.apache.hadoop.io.Text; import org.apache.hadoop.mapreduce.Reducer; /** * KEYIN , VALUEIN 对应mapper输出的KEYOUT, VALUEOUT类型 * KEYOUT,VALUEOUT 对应自定义reduce逻辑处理结果的输出数据类型 KEYOUT是单词 VALUEOUT是总次数 */ public class WordcountReducer extends Reducer{ //atguigu 1 atguigu 1 @Override protected void reduce(Text key, Iterable values, Context context) throws IOException, InterruptedException { // 1 统计所有单词个数 int count = 0; for(IntWritable value:values){ count += value.get(); } // 2输出所有单词个数 context.write(key, new IntWritable(count)); } }3) 定义一个主类,用来描述job并提交job import org.apache.hadoop.conf.Configuration; import org.apache.hadoop.fs.Path; import org.apache.hadoop.io.IntWritable; import org.apache.hadoop.io.Text; import org.apache.hadoop.mapreduce.Job; import org.apache.hadoop.mapreduce.lib.input.CombineTextInputFormat; import org.apache.hadoop.mapreduce.lib.input.FileInputFormat; import org.apache.hadoop.mapreduce.lib.output.FileOutputFormat; // 驱动主程序 public class WordcountDriver { public static void main(String[] args) throws Exception { // 1 获取job对象信息 Configuration configuration = new Configuration(); Job job = Job.getInstance(configuration); // 2 设置加载jar位置 job.setJarByClass(WordcountDriver.class); // 3 设置mapper和reducer的class类 job.setMapperClass(WordcountMapper.class); job.setReducerClass(WordcountReducer.class); // 4 设置输出mapper的数据类型 job.setMapOutputKeyClass(Text.class); job.setMapOutputValueClass(IntWritable.class); // 5 设置最终数据输出的类型 job.setOutputKeyClass(Text.class); job.setOutputValueClass(IntWritable.class); // 6 设置输入数据和输出数据路径 FileInputFormat.setInputPaths(job, new Path(args[0])); FileOutputFormat.setOutputPath(job, new Path(args[1])); // 7 提交 boolean result = job.waitForCompletion(true); System.exit(result ? 0 : 1); } } 5 MapReduce程序运行流程分析 1)在MapReduce程序读取文件的输入目录上存放相应的文件。 2)客户端程序在submit()方法执行前,获取待处理的数据信息,然后根据集群中参数的配置形成一个任务分配规划。 3)客户端提交job.split、jar包、job.xml等文件给yarn,yarn中的resourcemanager启动MRAppMaster。 4)MRAppMaster启动后根据本次job的描述信息,计算出需要的maptask实例数量,然后向集群申请机器启动相应数量的maptask进程。 5)maptask利用客户指定的inputformat来读取数据,形成输入KV对。 6)maptask将输入KV对传递给客户定义的map()方法,做逻辑运算 7)map()运算完毕后将KV对收集到maptask缓存。 8)maptask缓存中的KV对按照K分区排序后不断写到磁盘文件 9)MRAppMaster监控到所有maptask进程任务完成之后,会根据客户指定的参数启动相应数量的reducetask进程,并告知reducetask进程要处理的数据分区。 10)Reducetask进程启动之后,根据MRAppMaster告知的待处理数据所在位置,从若干台maptask运行所在机器上获取到若干个maptask输出结果文件,并在本地进行重新归并排序,然后按照相同key的KV为一个组,调用客户定义的reduce()方法进行逻辑运算。 11)Reducetask运算完毕后,调用客户指定的outputformat将结果数据输出到外部存储。 二、Hadoop序列化 1 Writable序列化 序列化就是把内存中的对象,转换成字节序列(或其他数据传输协议)以便于存储(持久化)和网络传输。 反序列化就是将收到字节序列(或其他数据传输协议)或者是硬盘的持久化数据,转换成内存中的对象。 Java的序列化是一个重量级序列化框架(Serializable),一个对象被序列化后,会附带很多额外的信息(各种校验信息,header,继承体系等),不便于在网络中高效传输。所以,hadoop自己开发了一套序列化机制(Writable),精简、高效。 1.1 常用数据序列化类型 1)自定义bean对象要想序列化传输,必须实现序列化接口,需要注意以下7项。 (1)必须实现Writable接口 (2)反序列化时,需要反射调用空参构造函数,所以必须有空参构造 (3)重写序列化方法 (4)重写反序列化方法 (5)注意反序列化的顺序和序列化的顺序完全一致 (6)要想把结果显示在文件中,需要重写toString(),且用”\t”分开,方便后续用 (7)如果需要将自定义的bean放在key中传输,则还需要实现comparable接口,因为mapreduce框中的shuffle过程一定会对key进行排序 三、MapReduce框架原理MapReduce工作流程: MapReduce详细工作流程(一) MapReduce详细工作流程(二) 流程详解: 1 MapTask并行度决定机制问题引出: maptask的并行度决定map阶段的任务处理并发度,进而影响到整个job的处理速度。那么,mapTask并行任务是否越多越好呢? MapTask并行度决定机制: 一个job的map阶段MapTask并行度(个数),由客户端提交job时的切片个数决定, 1)job提交流程源码详解
2)FileInputFormat源码解析(input.getSplits(job)) (1)找到你数据存储的目录。 (2)开始遍历处理(规划切片)目录下的每一个文件 (3)遍历第一个文件ss.txt a)获取文件大小fs.sizeOf(ss.txt); b)计算切片大小computeSliteSize(Math.max(minSize,Math.max(maxSize,blocksize)))=blocksize=128M c)默认情况下,切片大小=blocksize d)开始切,形成第1个切片:ss.txt—0:128M 第2个切片ss.txt—128:256M 第3个切片ss.txt—256M:300M(每次切片时,都要判断切完剩下的部分是否大于块的1.1倍,不大于1.1倍就划分一块切片) e)将切片信息写到一个切片规划文件中 f)整个切片的核心过程在getSplit()方法中完成。 g)数据切片只是在逻辑上对输入数据进行分片,并不会再磁盘上将其切分成分片进行存储。InputSplit只记录了分片的元数据信息,比如起始位置、长度以及所在的节点列表等。 h)注意:block是HDFS上物理上存储的存储的数据,切片是对数据逻辑上的划分。 (4)提交切片规划文件到yarn上,yarn上的MrAppMaster就可以根据切片规划文件计算开启maptask个数。
3)FileInputFormat中默认的切片机制: (1)简单地按照文件的内容长度进行切片 (2)切片大小,默认等于block大小 (3)切片时不考虑数据集整体,而是逐个针对每一个文件单独切片 比如待处理数据有两个文件: 经过FileInputFormat的切片机制运算后,形成的切片信息如下:
4)FileInputFormat切片大小的参数配置 通过分析源码,在FileInputFormat中,计算切片大小的逻辑:Math.max(minSize, Math.min(maxSize, blockSize)); 切片主要由这几个值来运算决定 mapreduce.input.fileinputformat.split.minsize=1 默认值为1 mapreduce.input.fileinputformat.split.maxsize= Long.MAXValue 默认值Long.MAXValue 因此,默认情况下,切片大小=blocksize。 maxsize(切片最大值):参数如果调得比blocksize小,则会让切片变小,而且就等于配置的这个参数的值。 minsize (切片最小值):参数调的比blockSize大,则可以让切片变得比blocksize还大。
5)获取切片信息API // 根据文件类型获取切片信息 FileSplit inputSplit = (FileSplit) context.getInputSplit(); // 获取切片的文件名称 String name = inputSplit.getPath().getName(); 2.2 CombineTextInputFormat切片机制 关于大量小文件的优化策略 1)默认情况下TextInputformat对任务的切片机制是按文件规划切片,不管文件多小,都会是一个单独的切片,都会交给一个maptask,这样如果有大量小文件,就会产生大量的maptask,处理效率极其低下。 2)优化策略 (1)最好的办法,在数据处理系统的最前端(预处理/采集),将小文件先合并成大文件,再上传到HDFS做后续分析。 (2)补救措施:如果已经是大量小文件在HDFS中了,可以使用另一种InputFormat来做切片(CombineTextInputFormat),它的切片逻辑跟TextFileInputFormat不同:它可以将多个小文件从逻辑上规划到一个切片中,这样,多个小文件就可以交给一个maptask。 (3)优先满足最小切片大小,不超过最大切片大小 CombineTextInputFormat.setMaxInputSplitSize(job, 4194304);// 4m CombineTextInputFormat.setMinInputSplitSize(job, 2097152);// 2m 举例:0.5m+1m+0.3m+5m=2m + 4.8m=2m + 4m + 0.8m 3)具体实现步骤 1) mapreduce中,map阶段处理的数据如何传递通过reduce阶段,是mapreduce框架中最关键的一个流程,这个流程就叫shuffle; 2) shuffle:洗牌、发牌(核心机制:数据分区、排序、緩存); 3) 具体来说:就是将maptask输出的处理结果数据,分发给reducetask, 并在分发的过程中,对数据按key进行了分区和排序。 3.2 Shuffle机制 Mapreduce确保每个reducer的输入都是按键排序的。系统执行排序的过程(即将map输出作为输入传给reducer)称为shuffle。 3.3 WritableComparable排序 排序是MapReduce框架中最重要的操作之一。Map Task和Reduce Task均会对数据(按照key)进行排序。该操作属于Hadoop的默认行为。任何应用程序中的数据均会被排序,而不管逻辑上是否需要。默认排序是按照字典顺序排序,且实现该排序的方法是快速排序。 对于Map Task,它会将处理的结果暂时放到一个缓冲区中,当缓冲区使用率达到一定阈值后,再对缓冲区中的数据进行一次排序,并将这些有序数据写到磁盘上,而当数据处理完毕后,它会对磁盘上所有文件进行一次合并,以将这些文件合并成一个大的有序文件。 对于Reduce Task,它从每个Map Task上远程拷贝相应的数据文件,如果文件大小超过一定阈值,则放到磁盘上,否则放到内存中。如果磁盘上文件数目达到一定阈值,则进行一次合并以生成一个更大文件;如果内存中文件大小或者数目超过一定阈值,则进行一次合并后将数据写到磁盘上。当所有数据拷贝完毕后,Reduce Task统一对内存和磁盘上的所有数据进行一次合并。 每个阶段的默认排序 1)排序的分类: (1)部分排序: MapReduce根据输入记录的键对数据集排序。保证输出的每个文件内部排序。 (2)全排序: 如何用Hadoop产生一个全局排序的文件?最简单的方法是使用一个分区。但该方法在处理大型文件时效率极低,因为一台机器必须处理所有输出文件,从而完全丧失了MapReduce所提供的并行架构。 替代方案:首先创建一系列排好序的文件;其次,串联这些文件;最后,生成一个全局排序的文件。主要思路是使用一个分区来描述输出的全局排序。例如:可以为上述文件创建3个分区,在第一分区中,记录的单词首字母a-g,第二分区记录单词首字母h-n, 第三分区记录单词首字母o-z。 (3)辅助排序:(GroupingComparator分组) Mapreduce框架在记录到达reducer之前按键对记录排序,但键所对应的值并没有被排序。甚至在不同的执行轮次中,这些值的排序也不固定,因为它们来自不同的map任务且这些map任务在不同轮次中完成时间各不相同。一般来说,大多数MapReduce程序会避免让reduce函数依赖于值的排序。但是,有时也需要通过特定的方法对键进行排序和分组等以实现对值的排序。 2)自定义排序WritableComparable (1)原理分析 bean对象实现WritableComparable接口重写compareTo方法,就可以实现排序 图中Combiner合并处: 1)combiner是MR程序中Mapper和Reducer之外的一种组件 2)combiner组件的父类就是Reducer 3)combiner和reducer的区别在于运行的位置: Combiner是在每一个maptask所在的节点运行 Reducer是接收全局所有Mapper的输出结果; 4)combiner的意义就是对每一个maptask的输出进行局部汇总,以减小网络传输量 5)自定义Combiner实现步骤: (1)自定义一个combiner继承Reducer,重写reduce方法 (2)在job中设置 6)combiner能够应用的前提是不能影响最终的业务逻辑,而且,combiner的输出kv应该跟reducer的输入kv类型要对应起来 Mapper 3 5 7 ->(3+5+7)/3=5 2 6 ->(2+6)/2=4 Reducer (3+5+7+2+6)/5=23/5 不等于 (5+4)/2=9/2 |
今日新闻 |
推荐新闻 |
CopyRight 2018-2019 办公设备维修网 版权所有 豫ICP备15022753号-3 |